有一致的客户反馈,当用户可以在他们日常使用的生产力工具中与 AI 助手交互时,AI 助手是最有用的,以避免切换应用程序和上下文。 Amazon Q Business 和 Slack 等 Web 应用程序已成为现代 AI 助手部署的必备环境。本文探讨了多样化的界面如何增强用户交互、提高可访问性并满足不同的偏好。
本文介绍的解决方案展示了一种强大的模式,可在保持人工监督的同时加速视频和音频审核工作流程。通过将 Amazon Bedrock 中的 AI 模型的强大功能与人类专业知识相结合,您可以创建不仅能提高生产力,还能在重要决策过程中保持人类判断这一关键要素的工具。
Boost team innovation, productivity, and knowledge sharing with Amazon Q Apps
在本文中,我们展示了 Amazon Q Apps 如何帮助最大限度地发挥现有知识资源的价值,并提高从财务到 DevOps 再到支持工程师等各个团队的生产力。我们分享了生成式 AI 助手如何实现相关信息的展示、复杂主题的提炼、自定义内容的生成和工作流的具体示例,同时保持强大的安全性和数据治理控制。
How Travelers Insurance classified emails with Amazon Bedrock and prompt engineering
在本文中,我们讨论了 FM 如何通过快速工程可靠地自动对保险服务电子邮件进行分类。当将问题表述为分类任务时,FM 可以在生产环境中表现良好,同时保持可扩展性以扩展到其他任务并快速启动和运行。所有实验均使用 Amazon Bedrock 上的 Anthropic 的 Claude 模型进行。
Accelerate digital pathology slide annotation workflows on AWS using H-optimus-0
在本文中,我们展示了如何使用 H-optimus-0 执行两个常见的数字病理学任务:用于详细组织检查的补丁级分析和用于更广泛诊断评估的幻灯片级分析。通过实际示例,我们向您展示了如何在优化计算资源的同时将此 FM 适应这些特定用例。
DeepSeek-R1 model now available in Amazon Bedrock Marketplace and Amazon SageMaker JumpStart
DeepSeek-R1 是一种先进的大型语言模型,它结合了强化学习、思维链推理和混合专家架构,通过 Amazon Bedrock Guardrails 集成提供高效、可解释的响应,同时保持安全性。
在本文中,我们将回顾 Aetion 的智能子组解释器如何让用户使用自然语言查询与智能子组进行交互。在 Amazon Bedrock 和 Anthropic 的 Claude 3 大型语言模型 (LLM) 的支持下,解释器可以回答用户以对话语言表达的有关患者子组的问题,并提供见解以生成进一步的假设和证据。
Deploy DeepSeek-R1 distilled Llama models with Amazon Bedrock Custom Model Import
在本文中,我们将演示如何使用 Amazon Bedrock 自定义模型导入来部署精简版的 DeepSeek-R1 模型。我们专注于导入当前支持的变体 DeepSeek-R1-Distill-Llama-8B 和 DeepSeek-R1-Distill-Llama-70B,它们在性能和资源效率之间实现了最佳平衡。
Generative AI operating models in enterprise organizations with Amazon Bedrock
随着生成式 AI 的采用率不断增长,组织应该建立生成式 AI 运营模型。运营模式定义了推动企业运营的组织设计、核心流程、技术、角色和职责、治理结构和财务模型。在本文中,我们评估了可以采用的不同生成式 AI 运营模式架构。
Develop a RAG-based application using Amazon Aurora with Amazon Kendra
RAG 从预先存在的知识库(您的数据)中检索数据,将其与 LLM 的知识相结合,并生成更像人类语言的响应。但是,为了让生成式 AI 理解您的数据,需要进行一定程度的数据准备,这涉及很大的学习曲线。在这篇文章中,我们将引导您了解如何将现有的 Aurora 数据转换为索引,而无需为 Amazon Kendra 进行数据准备以执行数据搜索并实施 RAG,将您的数据与 LLM 知识相结合以产生准确的响应。
Optimizing AI responsiveness: A practical guide to Amazon Bedrock latency-optimized inference
在本文中,我们将探讨 Amazon Bedrock 延迟优化推理如何帮助解决在 LLM 应用程序中保持响应能力的挑战。我们将深入探讨优化应用程序性能和改善用户体验的策略。无论您是构建新的 AI 应用程序还是优化现有的应用程序,您都会找到有关延迟优化技术方面和实际实施方法的实用指导。我们首先解释 LLM 应用程序中的延迟。
Track LLM model evaluation using Amazon SageMaker managed MLflow and FMEval
在本文中,我们将展示如何使用 FMEval 和 Amazon SageMaker 以编程方式评估 LLM。FMEval 是一个开源 LLM 评估库,旨在为数据科学家和机器学习 (ML) 工程师提供代码优先体验,以评估 LLM 的各个方面,包括准确性、毒性、公平性、稳健性和效率。
Image and video prompt engineering for Amazon Nova Canvas and Amazon Nova Reel
亚马逊在 Amazon Bedrock 上推出了两种新的创意内容生成模型:用于图像生成的 Amazon Nova Canvas 和用于视频创作的 Amazon Nova Reel。这些模型将文本和图像输入转换为自定义视觉效果,为专业和个人项目开辟了创意机会。Nova Canvas 是一种最先进的图像生成模型,可创建专业级图像 [...]
How Kyndryl integrated ServiceNow and Amazon Q Business
在这篇文章中,我们将向您展示 Kyndryl 如何通过几个简单的步骤将 Amazon Q Business 与 ServiceNow 集成。您将了解如何配置 Amazon Q Business 和 ServiceNow、如何为您的 ServiceNow 事件创建生成式 AI 插件以及如何使用 Amazon Q Business Web 体验测试和与 ServiceNow 交互。这篇文章将帮助您通过 Amazon Q Business 增强您的 ServiceNow 体验,并享受生成式 AI 驱动界面带来的好处。
Implement RAG while meeting data residency requirements using AWS hybrid and edge services
在本文中,我们展示了如何将 Amazon Bedrock Agents 扩展到混合和边缘服务(例如 AWS Outposts 和 AWS Local Zones),以使用本地数据构建分布式检索增强生成 (RAG) 应用程序,从而改善模型结果。借助 Outposts,我们还涵盖了完全本地 RAG 应用程序的参考模式,该应用程序需要基础模型 (FM) 和数据源都驻留在本地。
Unlocking complex problem-solving with multi-agent collaboration on Amazon Bedrock
AWS 的研究团队已广泛致力于构建和评估多代理协作 (MAC) 框架,以便客户可以在 Amazon Bedrock Agents 上协调多个 AI 代理。在这篇文章中,我们探讨了多代理协作 (MAC) 的概念及其优势,以及我们 MAC 框架的关键组件。我们还深入探讨了我们的评估方法,并介绍了我们研究的见解。
这篇文章展示了 MuleSoft 如何使用 Amazon Q Business 引入生成式 AI 助手来增强其内部 Cloud Central 仪表板。这个个性化门户向 100 多名工程师展示了所拥有的资产、成本和使用情况以及精心设计的建议。
Build an Amazon Bedrock based digital lending solution on AWS
在本文中,我们将使用 DigitalDhan 提出一种解决方案,DigitalDhan 是一种基于生成式 AI 的解决方案,用于自动化客户入职和数字贷款。 所提出的解决方案使用 Amazon Bedrock Agents 来自动化与 KYC 验证、信用和风险评估以及通知相关的服务。 金融机构可以使用此解决方案来帮助自动化客户入职、KYC 验证、信用决策、信用承保和通知流程。